Separación de datos, controles en las API y gestión de riesgos reputacionales son algunas de las recomendaciones que las compañías pueden aplicar para mitigar los riesgos asociados con la IA. La rápida evolución de la inteligencia artificial ha puesto de manifiesto la necesidad imperante de comprender y mitigar los riesgos asociados a su implementación. Durante más de dos décadas, la lista OWASP Top 10 ha servido como un estándar de referencia en el ámbito de la seguridad del software. En este contexto, donde las organizaciones cada vez adoptan más soluciones de IA, los modelos de lenguaje de gran tamaño (LLM) han emergido como herramientas estratégicas para impulsar la productividad empresarial.
Teniendo en cuenta lo anterior, Trend Micro Incorporated (TYO: 4704; TSE: 4704), líder global en ciberseguridad, presenta un análisis detallado las principales vulnerabilidades las cuales se pueden clasificar ampliamente en tres categorías principales, estas son:
-
Riesgos de acceso con la IA. Según OWASP, un diseño inseguro de LLM puede conducir a la pérdida de control de acceso, permitiendo que actores malintencionados exploten vulnerabilidades y ejecuten código no autorizado. Asimismo, la manipulación insegura de las salidas generadas por los LLM, sin la debida evaluación, expone los sistemas a riesgos de seguridad, como la propagación de spam o la ejecución de ataques. La capacidad de los chatbots de IA para tomar decisiones autónomamente los convierte en objetivos atractivos para atacantes, quienes pueden aprovechar estas herramientas para infiltrarse en sistemas y causar daños significativos.
-
Riesgos de datos con la IA. Los sistemas de inteligencia artificial que emplean modelos LLM, son vulnerables a una serie de riesgos relacionados con la seguridad de los datos. Entre estos se destacan las vulnerabilidades en la cadena de suministro, la divulgación de información sensible y las denegaciones de servicio. Los chatbots de IA, por ejemplo, pueden ser manipulados para generar respuestas sesgadas o divulgar información privada. Además, la dependencia de modelos pre-entrenados, datos masivos y complementos inseguros puede dar lugar a brechas de seguridad, fallas del sistema y salidas de datos sesgadas, poniendo en riesgo la reputación y los intereses de las organizaciones.
-
Riesgos reputacionales y comerciales asociados con la IA. Las últimas vulnerabilidades identificadas por OWASP resaltan dos riesgos críticos: el robo de modelos y la dependencia excesiva de la IA. El robo de modelos, especialmente en organizaciones que poseen sus propios LLM, representa una amenaza significativa. La copia o filtración no autorizada de estos modelos puede ser utilizada para sabotear operaciones empresariales o causar fugas de información confidencial. Por otro lado, la creciente dependencia de la IA ha generado preocupaciones a nivel mundial, ya que se han reportado casos de modelos de lenguaje grande que producen resultados falsos o inapropiados, como citas inventadas, lenguaje ofensivo o información errónea, lo que subraya la importancia de una implementación responsable y cuidadosa de estas tecnologías.
Mejores prácticas para minimizar los riesgos
A pesar de las amenazas, existe un camino hacia la seguridad en la IA, y este comienza con los siguientes pasos:
-
Defensa contra los riesgos de acceso a la IA: Las organizaciones deben implementar una postura Zero Trust con un estricto aislamiento del sistema (sandboxing) el cual protege la privacidad y la integridad de los datos al aislar la información confidencial de los datos compartidos públicamente y evitar el acceso no autorizado por parte de chatbots y otros sistemas públicos.
-
Separación de datos: Al mantener los datos confidenciales aislados de los datos públicos, se evita que los modelos de lenguaje grande incorporen información privada o sensible en sus respuestas. Además, también previene que estos modelos sean utilizados de manera inapropiada para interactuar con sistemas sensibles, como los de pago, evitando así posibles brechas de seguridad y el acceso no autorizado a información confidencial.
-
Controles en las API: Se aconseja que en los modelos LLM se inserten controles en las interfaces de programación de aplicaciones (API).
-
Frente reputacional: Algunas de las soluciones más simples son no depender únicamente del contenido o código generado por IA y nunca publicar o utilizar los resultados de la IA sin antes verificar que sean verdaderos, precisos y confiables.
-
Políticas corporativas: Al incorporar medidas de seguridad como la separación de datos y el sandboxing dentro de las políticas corporativas, se establece un marco claro de cómo debe manejarse la información sensible. Tecnologías como EDR, XDR y SIEM permiten monitorear de manera proactiva las actividades en los sistemas, detectar anomalías y responder rápidamente a cualquier incidente de seguridad, asegurando así el cumplimiento de las normas y la protección de los activos de la organización.
Implementar políticas sólidas para gestionar el uso de la inteligencia artificial y complementarlas con soluciones de ciberseguridad robustas constituye un primer paso fundamental para mitigar los riesgos asociados a esta tecnología. Sin embargo, es esencial mantenerse actualizado sobre las últimas amenazas y mejores prácticas.
Nuestras noticias también son publicadas a través de nuestra cuenta en Twitter @ITNEWSLAT y en la aplicación SQUID |